Der von Facebook-Schreck Max Schrems und dessen europäischer Datenschutz-Organisation Noyb aufgebaute Druck gegen den US-Konzern Meta zeigt Wirkung: Mark Zuckerbergs Social-Media-Koloss verzichtet darauf, seine Künstliche Intelligenz namens «Meta AI» mit den User-Daten aus Europa zu trainieren.
Der Zeitpunkt, an dem der Meta-Konzern die Planänderung kommunizierte, lässt tief blicken.
Dazu kommentiert Noyb:
Anfang Juni hatte die private Datenschutz-Organisation in 11 europäischen Ländern die staatlichen Datenschutzbehörden aufgefordert, «Metas Missbrauch personenbezogener Daten für KI sofort zu stoppen».
Einmal mehr spielt die irische Datenschutzkommission (DPC) eine fragwürdige Rolle. Irlands nationale Datenschutzbehörde war in den letzten Jahren wiederholt und massiv in die Kritik geraten, weil sie zu harmlos gegen die mächtigen US-Techkonzerne agiert.
Die irische Behörde soll sich auch bei Metas KI-Plänen für User in der Europäischen Union (EU) und im Europäischen Wirtschaftsraum (EWR) nicht hervorgetan haben. Erst als Regulierungsbehörden in anderen europäischen Staaten massive Bedenken anmeldeten, habe dies die DPC zur Kehrtwende veranlasst.
Max Schrems blieb in einer noch am gleichen Tag verschickten Medienmitteilung kritisch:
Meta zeigt sich als schlechter Verlierer. Das Unternehmen erklärte, dass es in den EU- und EWR-Ländern vorerst seine KI-Dienste nicht verfügbar machen werde.
Der US-Konzern schreibt in einer Stellungnahme, er wolle «Meta AI» und die zugrundeliegenden Sprachmodelle mehr Menschen auf der ganzen Welt zugänglich machen, auch in Europa. Ohne die Einbeziehung lokaler Informationen könne man «den Menschen jedoch nur eine zweitklassige Erfahrung bieten». Aus diesem Grund werde man Meta AI derzeit nicht in Europa einführen.
In einer Stellungnahme ist von einem «Rückschritt für europäische Innovationen» die Rede, dieser werde zu «weiteren Verzögerungen bei der Nutzung der Vorteile der KI für die Menschen in Europa» führen.
Dies erscheine «nicht allzu logisch», kontert Noyb. Das geltende Gesetz (DSGVO) erlaube fast alles, solange die User eine (gültige) Einwilligung erteilt hätten.
Ende Mai hatte Meta im Firmen-Blog über seine Pläne rund um seine generative KI informiert und «einen verantwortungsvollen Umgang» mit den persönlichen User-Daten versprochen. Zur Beruhigung der User versicherten die Verantwortlichen in dem Beitrag, es würden nur öffentliche Postings und Kommentare verwendet – keine privaten Chats und Direktnachrichten – und auch keine Inhalte von Personen unter 18 Jahren.
Max Schrems warnte jedoch:
Anfang Juni informierte der Meta-Konzern dann Millionen Facebook- und Instagram-User in Europa über die Änderung seiner Datenschutzrichtlinie und kündigte an, die User-Daten fürs KI-Training zu verwenden.
Anstatt die Betroffenen um ihre Zustimmung (Opt-in) zu bitten, verlangte Meta von Usern, die ihre Daten nicht für das KI-Training zur Verfügung stellen wollten, Widerspruch einzulegen über ein Web-Formular.
Das US-Unternehmen, das im steuergünstigen Irland seinen europäischen Sitz hat, führte dafür eine fragwürdige Begründung ins Feld, wie Noyb kritisierte. Die Meta-Anwälte argumentierten, das Unternehmen habe «ein legitimes Interesse», was die User-Daten betreffe, und dies setze das Grundrecht auf Datenschutz und Privatsphäre der europäischen User ausser Kraft.
Wie Noyb in der Folge warnte, besagten Metas neue Regeln im Wesentlichen, dass der Konzern alle öffentlichen und nicht öffentlichen Benutzerdaten, die er seit 2007 gesammelt hatte, für seine aktuellen und auch zukünftigen KI-Technologien verwenden wolle. Dazu gehörten auch viele «ruhende» Facebook-Konten, mit denen User kaum noch interagierten – die aber immer noch grosse Mengen persönlicher Daten enthielten.
Bleibt anzumerken: Ungenutzte Social-Media-Accounts, ob bei Meta oder einem anderen Plattform-Betreiber, sollten (mitsamt Daten) gelöscht werden.